史蒂芬·平克专访:ChatGPT是否会取代我们作为作家、思想家的地位?
ChatGPT是否会取代我们作为作家、思想家的地位?史蒂芬-平克说,它令人印象深刻;将有用途和局限性;可能提供对人类智能本质的洞察力(一旦它 "停止编造东西")。
史蒂文-平克认为ChatGPT确实令人印象深刻--而且一旦它 "停止编造",变得不那么容易出错,它将更加令人印象深刻。11月,当OpenAI发布其ChatGPT聊天机器人,能够以对话和表面上的权威方式即时回答一系列领域的问题(事实上,撰写各种体裁的文章)时,高等教育,实际上是世界上的大部分地区,都陷入了混乱。利用一种被称为大型语言模型(LLM)的人工智能,ChatGPT能够不断学习并改进其回答。但它到底能有多好?约翰斯通家族心理学教授平克在获奖畅销书《语言本能》等书中研究了心灵、语言和思想之间的联系,他对我们是否应该关注ChatGPT取代人类成为作家和思想家的潜力有自己的一些想法。采访内容经过编辑,以保证清晰度和长度。
GAZETTE:ChatGPT得到了大量的关注,其中很多都是负面的。你认为它所带来的重要问题是什么?
平克:它当然表明,当我们试图想象在5万亿字的文本中潜藏着什么统计模式,并且可以用1000亿个参数来捕捉时,我们的直觉是如何失败的。像大多数人一样,我不会猜到一个这样的系统会有能力,比如说,用唐纳德-特朗普的风格写出《葛底斯堡演说》。数据中存在着我们人类无法理解的模式的模式。令人印象深刻的是,ChatGPT可以在不了解世界的情况下产生合理的散文,相关的和结构良好的,没有公开的目标,明确表示的事实,或其他我们可能认为是产生智能听起来的散文所必需的东西。
而这种能力的表象使得它的失误更加令人震惊。它说的是自信的混话,比如美国有四位女总统,包括1973-77年的露西-贝恩斯-约翰逊。它还犯了一些基本的常识性错误。25年来,我在心理学入门课程的开头就说明我们最好的人工智能仍然无法复制普通常识。今年,我很害怕这部分讲座会被淘汰,因为我所举的例子会被GPT打败。但我不需要担心。当我问ChatGPT:"如果梅布尔在上午9点和下午5点还活着,那么她在中午是否还活着?"它回答说:"没有说明梅布尔在中午是否活着。众所周知,她在9点和5点是活着的,但没有提供关于她在中午活着的信息。" 所以,它没有掌握世界上的基本事实--比如人活着的时间是连续的,一旦你死了,你就会一直死下去--因为它从来没有遇到过一段明确说明的文字。(值得称道的是,它确实知道金鱼不穿内裤。)
我们面对的是一个能够做出惊人壮举的外星智能,但不是以人类的思维方式。我们不需要接触5万亿字的文字(以每秒3个字,每天8小时计算,需要15000年)来说话或解决问题。尽管如此,你能从庞大的数据集中的非常、非常、非常高阶的统计模式中得到什么,令人印象深刻。
"25年来,我一直以展示我们最好的人工智能仍然无法复制普通常识来开始我的心理学入门课程。今年,我很害怕这部分讲座会被淘汰。...但我不需要担心。"
GAZETTE:开放人工智能说它的目标是开发人工通用智能。这是否可取,甚至可能?
平克:我认为这是不连贯的,就像 "通用机器 "是不连贯的。我们可以想象各种超能力,如超人的飞行、无敌和X射线视觉,但这并不意味着它们在物理上是可以实现的。同样地,我们可以幻想一种超级智能,它能推导出如何使我们不朽,或带来世界和平,或接管宇宙。但是真正的智能是由一套算法组成的,用于解决特定世界中的特定类型的问题。我们现在有的,而且可能永远有的,是在某些挑战中超过人类的设备,而在另一些挑战中则没有。
Steven Pinker. Photo by Rebecca Goldstein
GAZETTE:你担心在你的课堂上使用它吗?
平克:没有比从网站上下载学期论文更多的事。学院要求我们提醒学生,荣誉誓言规定不能提交他们没有写的作品。我并不天真;我知道有些哈佛学生可能是赤裸裸的骗子,但我不认为有很多。另外,至少到目前为止,很多ChatGPT的输出很容易被揭穿,因为它把不存在的引文和参考文献混在一起。
GAZETTE:人们对ChatGPT有一系列的担心,包括虚假信息和工作的危险。有什么特别让你担心的事情吗?
平克:对新技术的恐惧总是被可能发生的最坏情况所驱动,而没有预见到现实世界中会出现的对策。对于大型语言模型,这将包括人们对自动生成的内容培养的怀疑态度(记者已经停止使用让GPT写专栏的噱头,因为读者已经注意到了),专业和道德护栏的发展(如哈佛大学的荣誉誓言),以及可能出现的给LLM输出打水印或检测的技术。
还有其他反击的来源。一个是我们都对与人的因果关系有深刻的直觉。一个收藏家可能会花10万美元购买约翰-肯尼迪的高尔夫球杆,即使它们与那个时代的任何其他高尔夫球杆都没有区别。对于像故事和社论这样的智力产品,对真实性的需求甚至更强烈:意识到有一个真实的人你可以把它联系起来,就会改变它的地位和它的可接受性。
另一个反击将来自于那些令人拍案叫绝的失误,比如碎玻璃作为膳食补充剂越来越受欢迎,或者九个女人可以在一个月内生下一个孩子。随着系统被人类反馈(通常来自贫穷国家的点击农场)所改进,这些错误会越来越少,但考虑到无限的可能性,它们仍然会存在。而且,最关键的是,不会有一个纸质追踪,让我们能够对断言进行事实核查。对于一个普通的作家,你可以问他并追踪参考资料,但在法学硕士中,一个 "事实 "被涂抹在数十亿个对量化变量的微小调整中,而且不可能追踪和核实来源。
尽管如此,毫无疑问,有许多种类的模板可以由法学硕士像人一样轻松制作,这可能是一件好事。也许我们不应该支付昂贵的律师费来制作一个可以自动生成的遗嘱或离婚协议。
GAZETTE:我们听到了很多关于潜在的坏处。有潜在的好处吗?
平克:一个例子是它作为语义搜索引擎的使用,而不是我们目前的搜索引擎,它是由字符串组成的。目前,如果你有一个想法而不是一串文字,就没有好的方法来搜索它。现在,一个真正的语义搜索引擎,与LLM不同,会有一个世界的概念模型。它将有关于人、地方、物体和事件的符号,以及关于目标和因果关系的表述,更接近于人类思维的工作方式。但是对于一个工具来说,比如搜索引擎,你只是想获得有用的信息检索,我可以看到LLM可能是非常有用的--只要它不再编造东西。
GAZETTE:如果我们往下看,这些东西变得更好--可能是指数级的更好--对人类来说,什么是学习,什么是知识,甚至什么是专家,是否会有影响?
平克:我怀疑它会以指数方式改善,但它会改善。而且,就像过去使用计算机来补充人类智能一样--一直追溯到60年代的计算和记录,90年代的搜索,以及其他每一步--我们将增强我们自己的限制。就像我们不得不承认我们自己有限的记忆和计算能力一样,我们将承认,检索和消化大量的信息是我们可以做好的事情,但人工智能可以做得更好。
由于LLMs的运作方式与我们如此不同,它们可能会帮助我们理解人类智能的本质。当我们把人类的理解力与那些表面上似乎与之重复、在某些方面超过它、但在其他方面又不足的系统进行对比时,它们可能会加深我们对人类理解力的欣赏。
GAZETTE:所以人类不会被人工通用智能所取代?从本质上讲,我们仍然会在上面?还是说这是个错误的框架?
平克:这是个错误的框架。没有一个一维的智力量表可以囊括所有可以想象的思想。当然,我们用智商来衡量人类之间的差异,但这并不能向上推导出一个万能的教育者,如果只是因为它对经验现实的了解受限于它能观察到的东西。不存在全知全能的奇迹算法:有多少智能体,就有多少目标和世界。
来源:news.harvard.edu
翻译:deepl
往期: